3 research outputs found

    Hizkuntza-arteko distilazioa eta antzekotasun semantikoa maiz egiten diren galderak erantzuteko

    Get PDF
    Azken urteotan gure artean egon den COVID-19aren harira, gaixotasunari buruzko dudak argitzeko sistema bat garatu nahi izan da, Osakidetzak eskainitako Maiz Eginiko Galderen (MEG) multzo batean oinarrituta; honela, sistemaren helburua, erabiltzaileak galdera bat eginik, MEGean haren semantikoki antzekoena dena bilatzea da, sistemak iragarritako galderaren erantzunak duda argitzeko balioko duela suposatuz. Hori horrela, ideia nagusia euskarazko zein gaztelaniazko sistema bana garatzea izan da, eta hizkuntza hauen baliabideak ingelesekoekin alderatuz nahikoa mugatuak direnez, distilazio bidezko ikasketa erabili da ahalik eta eredu eraginkorrenak sortzeko, ingelesez birdoitutako ereduetatik ikasiz. Hala, distilazioak ekartzen dituen onurak aztertu nahi izan dira, distilatu gabeko ereduekin alderatuz domeinuko zein domeinuz kanpoko ebaluazioaren bitartez. Emaitzei erreparatuta, helburu nagusia bete dela ikus daiteke, aipatutako bi ebaluazio motetan distilazioaren bidez hobekuntza nabarmenak lortu baitira distilatu gabeko ereduekin alderatuz, kasu batzuetan emaitza benetan lehiakorrak lortuaz

    Detección de carreteras en imágenes de reconocimiento remoto mediante Deep Learning

    Get PDF
    Resumen en español: Este proyecto explora las técnicas de detección de carreteras en imágenes RGB de reconocimiento remoto, empezando por métodos de Machine Learning y llegando hasta la aplicación de técnicas de aprendizaje profundo

    HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence for Digital Medicine

    Full text link
    Providing high quality explanations for AI predictions based on machine learning is a challenging and complex task. To work well it requires, among other factors: selecting a proper level of generality/specificity of the explanation; considering assumptions about the familiarity of the explanation beneficiary with the AI task under consideration; referring to specific elements that have contributed to the decision; making use of additional knowledge (e.g. expert evidence) which might not be part of the prediction process; and providing evidence supporting negative hypothesis. Finally, the system needs to formulate the explanation in a clearly interpretable, and possibly convincing, way. Given these considerations, ANTIDOTE fosters an integrated vision of explainable AI, where low-level characteristics of the deep learning process are combined with higher level schemes proper of the human argumentation capacity. ANTIDOTE will exploit cross-disciplinary competences in deep learning and argumentation to support a broader and innovative view of explainable AI, where the need for high-quality explanations for clinical cases deliberation is critical. As a first result of the project, we publish the Antidote CasiMedicos dataset to facilitate research on explainable AI in general, and argumentation in the medical domain in particular.Comment: To appear: In SEPLN 2023: 39th International Conference of the Spanish Society for Natural Language Processin
    corecore